Analysis of multi-step algorithms for cognitive maps learning

نویسندگان
چکیده

برای دانلود رایگان متن کامل این مقاله و بیش از 32 میلیون مقاله دیگر ابتدا ثبت نام کنید

اگر عضو سایت هستید لطفا وارد حساب کاربری خود شوید

منابع مشابه

Learning algorithms for fuzzy cognitive maps

Fuzzy Cognitive Maps have been introduced as a combination of Fuzzy logic and Neural Networks. In this paper a new learning rule based on unsupervised Hebbian learning and a new training algorithm based on Hopfield nets are introduced and are compared for the training of Fuzzy Cognitive Maps.

متن کامل

Fuzzy Cognitive Maps Learning using Memetic Algorithms

Memetic Algorithms (MAs) are proposed for learning in Fuzzy Cognitive Maps (FCMs). MAs are hybrid search schemes, which combine a global optimization algorithm and a local search one. FCM’s learning is accomplished through the optimization of an objective function with respect to the weights of the FCM. MAs are used to solve this optimization task. The proposed approach is applied to a well-est...

متن کامل

A Modified Multi Time Step Integration for Dynamic Analysis

In this paper new implicit higher order accuracy (N-IHOA) time integration based on assumption of constant time step is presented for dynamic analysis. This method belongs to the category of the multi time step integrations. Here, current displacement and velocity are assumed to be functions of the velocities and accelerations of several previous time steps, respectively. This definition causes...

متن کامل

analysis of ruin probability for insurance companies using markov chain

در این پایان نامه نشان داده ایم که چگونه می توان مدل ریسک بیمه ای اسپیرر اندرسون را به کمک زنجیره های مارکوف تعریف کرد. سپس به کمک روش های آنالیز ماتریسی احتمال برشکستگی ، میزان مازاد در هنگام برشکستگی و میزان کسری بودجه در زمان وقوع برشکستگی را محاسبه کرده ایم. هدف ما در این پایان نامه بسیار محاسباتی و کاربردی تر از روش های است که در گذشته برای محاسبه این احتمال ارائه شده است. در ابتدا ما نشا...

15 صفحه اول

Algorithms for Learning Good Step Sizes

Many common algorithms in machine learning, from logistic regression to neural networks and beyond, rely on hyperparameters to function well. In gradient descent, too large a step size can cause the iteration to blow up and not terminate; too small a step size and the iteration doesn’t converge fast enough. Tuning these parameters can be very difficult: the manual for the popular linear and int...

متن کامل

ذخیره در منابع من


  با ذخیره ی این منبع در منابع من، دسترسی به آن را برای استفاده های بعدی آسان تر کنید

ژورنال

عنوان ژورنال: Bulletin of the Polish Academy of Sciences Technical Sciences

سال: 2014

ISSN: 2300-1917

DOI: 10.2478/bpasts-2014-0079